Световни новини без цензура!
Технологичната индустрия се опита да намали всеобхватните пристрастия на AI. Сега Тръмп иска да сложи край на своите „събудени усилия на AI“
Снимка: apnews.com
AP News | 2025-04-27 | 13:08:24

Технологичната индустрия се опита да намали всеобхватните пристрастия на AI. Сега Тръмп иска да сложи край на своите „събудени усилия на AI“

Cambridge, Mass. (AP) - След като се оттеглят от програмите си за разнообразие, справедливост и приобщаване на работното си място, технологичните компании вече могат да се сблъскат с второ разчитане на работата си в AI продукти.

В Белия дом и републиканския конгрес „Събуди се AI“ замени вредната алгоритмична дискриминация като проблем, който се нуждае от коригиране. Миналите усилия за „напредване на собствения капитал“ и ограничаване на производството на „вредни и предубедени резултати“ са цел на разследване, според призовки, изпратени в Амазонка, Google, Meta, Microsoft, Openai и 10 други технологични компании миналия месец от Комитета на съдебната власт на САЩ.

и стандартния клон на американския апел на апелацията. сътрудничество с външни изследователи. Вместо това е инструктиране на учените да се съсредоточат върху „намаляване на идеологическите пристрастия“ по начин, който „ще даде възможност за процъфтяване на човека и икономическа конкурентоспособност“, според копие на документа, получен от Асошиейтед прес.

По някакъв начин технологичните работници са свикнали с камшик от приоритети, управлявани от Вашингтон, засягащи работата им.

Но последната смяна предизвика опасения сред експертите в областта, включително социологът от Харвардския университет Елис Монк, който преди няколко години се обърна от Google, за да помогне на своите AI продукти по -приобщаващи.

Тогава технологичната индустрия вече знаеше, че има проблем с клона на AI, който обучава машини да „виждат“ и да разбират изображенията. Computer Vision притежаваше голямо търговско обещание, но повтори историческите пристрастия, открити в по -ранните технологии за камери, които изобразяват черно -кафяви хора в нестабилна светлина.

„Черните хора или по -тъмните кожи ще дойдат на снимката и понякога изглеждаме нелепо“, казва Монк, учен по колоризъм, форма на дискриминация, основана на кожните тонове на хората и други характеристики.

;

„Потребителите определено имаха огромен положителен отговор на промените“, каза той.

Сега Монк се чуди дали подобни усилия ще продължат в бъдеще. Въпреки че той не вярва, че неговият мащаб на тона на кожата на монашеството е застрашен, защото той вече е изпечен в десетки продукти в Google и на други места-включително телефони на камерата, видеоигри, генератори на AI изображения-той и други изследователи се притесняват, че новото настроение е смразяващо бъдещите инициативи и финансирането, за да направи технологията по-добре за всички.

„Google иска техните продукти да работят за всички, в Индия, Китай, Африка, ET Cetera. каза. „Но може ли бъдещото финансиране за тези видове проекти да бъде понижено? Абсолютно, когато политическото настроение се измества и когато има голям натиск да се пазари много бързо.“

Тръмп съкрати стотици наука, технологии и здравни финансиране, засягащи теми на DEI, но влиянието му върху търговското развитие на чатботите и други продукти на AI е по -неректно. Разследвайки компаниите на AI, републиканският репортер Джим Джордан, председател на Комитета по съдебната власт, заяви, че иска да разбере дали администрацията на бившия президент Джо Байдън е „принудена или сговор с“, за да цензурира законната реч.

Майкъл Крациос, директор на Службата за наука и технологични политики на Белия дом, заяви по време на събитието в Тексас този месец, че политиките на AI на Байдън „насърчават социалните разделения и преразпределението в името на справедливостта.“

Администрацията на Тръмп отказа да предостави Кратис за интервю, но цитира няколко примера за това, което има предвид. Единият беше линия от стратегията за изследване на AI от ерата на Байдън, която казва: „Без подходящи контроли, AI системите могат да усилват, увековечават или изострят неравномерните или нежелани резултати за хората и общностите.“

дори преди Байдън да встъпи в длъжност, нарастващото изследователско и лични анекдоти привличаше вниманието към вредите от вредите на AI.

Едно проучване показа, че технологията за самостоятелно шофиране на автомобили е трудно да открие пешеходци с по-тъмнокожи кожа, излагайки ги в по-голяма опасност да се прехвърлят. Друго проучване с молба на популярни генератори на AI Text-To-Obage да направят картина на хирург, установи, че са произвели бял мъж около 98% от времето, далеч по-високи от реалните пропорции дори в силно доминирано от мъжки пол.

Софтуер за съвпадение на лица за отключване на телефони неправилно идентифицирани азиатски лица. Полицията в градовете на САЩ неправомерно арестува чернокожи мъже въз основа на мачове за признаване на фалшиви лица. И преди десетилетие, приложението за снимки на Google сортира снимка на двама чернокожи в категория, обозначена като „горили“.

Дори правителствените учени в първата администрация на Тръмп заключават през 2019 г., че технологията за разпознаване на лица се представя неравномерно въз основа на раса, пол или възраст.

Изборът на Байдън принуди някои технологични компании да ускорят фокуса си върху справедливостта на AI. Пристигането на Chatgpt от 2022 г. добави нови приоритети, разпалвайки търговски бум в нови AI приложения за съставяне на документи и генериране на изображения, притискане на компании като Google, за да облекчи своята предпазливост и да навакса.

Тогава дойде Gemini AI Chatbot на Google - и дефектно пускане на продукта миналата година, което ще го направи символът на „Събуди се AI“, който консерваторите се надяваха да разгадаят. Оставени на собствените си устройства, AI инструменти, които генерират изображения от писмена подкана, са склонни да увековечават стереотипите, натрупани от всички визуални данни, на които са били обучени.

Google не беше по-различен и когато беше помолен да изобразява хора в различни професии, е по-вероятно да благоприятствате лица и мъже с по-светла кожа и когато жените бяха избрани, по-младите жени, според собствените публични изследвания на компанията.

Google се опита да постави технически пазари, за да намали тези различия, преди да разточи Gemini на Gemini, които AI Image Generator преди да намалят тези различия.

Google се опита да постави технически производители, за да намали тези различия, преди да се разточи на Gemini. В крайна сметка се прекалява с пристрастията, поставяйки хората от цвят и жените в неточни исторически условия, като например да отговарят на молба за американски основаващи бащи с изображения на мъже в облеклото от 18 век, които изглеждат като черни, азиатски и индиански. Google quickly apologized and temporarily pulled the plug on the feature, but the outrage became a rallying cry taken up by the political right.

With Google CEO Sundar Pichai sitting nearby, Vice President JD Vance used an AI summit in Paris in February to decry the advancement of “downright ahistorical social agendas through AI,” naming the moment when Google’s AI image generator was “trying to tell us that George Washington was Черно, или че американските течести в Първата световна война всъщност бяха жени. ”

„ Трябва да помним уроците от този нелеп момент “, заяви Ванс на събирането. “And what we take from it is that the Trump administration will ensure that AI systems developed in America are free from ideological bias and never restrict our citizens’ right to free speech.”

A former Biden science adviser who attended that speech, Alondra Nelson, said the Trump administration’s new focus on AI’s “ideological bias” is in some ways a recognition of years of work to address algorithmic bias that can affect housing, mortgages, health care and other aspects of people’s lives.

“Fundamentally, to say that AI systems are ideologically biased is to say that you identify, recognize and are concerned about the problem of algorithmic bias, which is the problem that many of us have been worried about for a long time,” said Nelson, the former acting director of the White House’s Office of Science and Technology Policy who co-authored a set of principles to protect civil Права и граждански свободи в заявленията за ИИ.

Но Нелсън не вижда много място за сътрудничество на фона на омаловажаването на справедливите ИИ инициативи.

„Мисля, че в това политическо пространство, за съжаление, това е малко вероятно“, каза тя. „Проблеми, които са различно наречени- алгоритмична дискриминация или алгоритмични пристрастия, от една страна, и идеологически пристрастия от друга- ще бъдат за съжаление ще ни разглеждат като два различни проблема.“

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!